机器学习中的评价指标:F1

您所在的位置:网站首页 f1 score是什么意思 机器学习中的评价指标:F1

机器学习中的评价指标:F1

2024-07-16 01:25| 来源: 网络整理| 查看: 265

机器学习中的评价指标:F1-score

图:西雅图(Seattle)

Guderian出品

回顾:F1-score的计算过程 混淆矩阵(Confusion Matrix)

混淆矩阵也称误差矩阵,是表示精度评价的一种标准格式,用n行n列的矩阵形式来表示。

在机器学习领域,混淆矩阵用于衡量一个分类器的准确程度。对于二分类问题,将其样例根据真实类别和分类器的预测类别的组合划分为真正例 ( T r u e   P o s i t i v e ) \mathrm{(True \, Positive)} (TruePositive)、假正例 ( F a l s e   P o s i t i v e ) \mathrm{(False \, Positive)} (FalsePositive)、真反例 ( T r u e   N e g a t i v e ) \mathrm{(True \, Negative)} (TrueNegative)、假反例 ( F a l s e   N e g a t i v e ) \mathrm{(False \, Negative)} (FalseNegative)四种情形。

对应混淆矩阵 ( C o n f u s i o n   M a t r i x ) \mathrm{(Confusion \, Matrix)} (ConfusionMatrix)如下表:

真实情况 预测结果 真 假 真 TP(真正例) FN(假反例) 假 FP(假正例) TN(真反例) 精确率(Precision)与召回率(Recall)

根据混淆矩阵,我们可以得到如下定义:

精确率 ( P r e c i s i o n ) \mathrm{(Precision)} (Precision) P = T P T P + F P × 100 % \mathrm{P=\frac{TP}{TP+FP} \times 100\%} P=TP+FPTP​×100%,表示真实情况和预测结果皆为真/预测结果为真召回率 ( R e c a l l ) \mathrm{(Recall)} (Recall) R = T P T P + F N × 100 % \mathrm{R=\frac{TP}{TP+FN} \times 100 \%} R=TP+FNTP​×100%,表示真实情况和预测结果皆为真/真实情况为真 F1分数(F1-score)

F1分数( F 1 − s c o r e \mathrm{F1-score} F1−score)即精确率与召回率的调和平均数( H a r m o n i c   M e a n \mathrm{Harmonic \, Mean} HarmonicMean),比算术平均数( A r i t h m e t i c   M e a n \mathrm{Arithmetic \, Mean} ArithmeticMean)的评价效果更好。

F 1 = 2 1 P + 1 R = 2 P R P + R \mathrm{F1=\frac{2}{\frac1{P}+\frac1{R}}=\frac{2PR}{P+R}} F1=P1​+R1​2​=P+R2PR​

直观理解为什么F1-score能评价模型优劣

在你训练的机器学习模型过程中,你往往希望能够兼顾精确率和召回率,并使用一个统一的单值评价指标来评价你的机器学习模型的训练效果。我们之所以使用调和平均而不是算术平均,是因为在算术平均中,任何一方对数值增长的贡献相当,任何一方对数值下降的责任也相当;而调和平均在增长的时候会偏袒较小值,也会惩罚精确率和召回率相差巨大的极端情况,很好地兼顾了精确率和召回率。

几何观点

在这里插入图片描述

上图为函数图象 z = f ( x , y ) = 2 x y x + y z=f(x, y)=\frac{2xy}{x+y} z=f(x,y)=x+y2xy​。显而易见当 x = 1 x=1 x=1, y = 0 y=0 y=0或者 y = 1 y=1 y=1, x = 0 x=0 x=0时, z = 0 z=0 z=0,说明调和平均惩罚精确率和召回率相差很大的极端情况。

当 x < y x



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3